Un articolo scientifico di daniela tafani, prezioso, ricco di spunti di riflessioni e di verità tanto evidenti quanto nascoste.
Il testo demistifica le "credenze" relative alla presunta intelligenza dei software probabilistici e ristabilisce dei punti fermi sulla non neutralità del software, anche quando si tratta di cosidetta Intelligenza Artificiale.
L'articolo dimostra perché l'introduzione dell'intelligenza artificiale nella scuola e nelle univeristà sia un problema per i processi di apprendimento e insegnamento. Tuttavia si tratta di una tendenza già presente: la trasformazione dell'insegnamento in addestramento degli studenti per andare incontro alle esigenze del mondo aziendale.
Indice
Nella famiglia di tecnologie denominata, per ragioni di marketing, «intelligenza artificiale», alcuni genuini progressi sono stati ottenuti, a partire dal 2010, con sistemi di natura statistica, antropomorficamente definiti di «apprendimento automatico» (machine learning). Si tratta di sistemi che, anziché procedere secondo le istruzioni scritte da un programmatore, costruiscono modelli a partire da esempi. Sono statistiche automatizzate, prive, in quanto tali, di intelligenza: «sistemi probabilistici che riconoscono modelli statistici in enormi quantità di dati» (Whittaker 2024). Dovrebbero perciò essere utilizzati solo per compiti con una elevata tolleranza al rischio.
La costruzione dei sistemi di apprendimento automatico richiede, tra gli altri, un’elevata potenza di calcolo e enormi quantità di dati: queste sono oggi nella disponibilità dei soli monopoli della tecnologia (le cosiddette Big Tech), che detengono l’accesso al mercato necessario per l’intercettazione di grandi flussi di dati e metadati individuali e le potenti infrastrutture di calcolo per la raccolta e l’elaborazione di tali dati (Lynn, von Thun, Montoya 2023). Su tali aziende si concentrano gli investimenti del capitale di rischio.
Giovedì 29 febbraio a Roma, in Via della Dogana Vecchia 5, dalle ore 17:30 alle 19:30, il terzo incontro del ciclo "L’intelligenza artificiale che genera testi e che predice il futuro", organizzato dalla Scuola critica del digitale del CRS e dal ForumDD. Conversazione con Daniela Tafani.
I sistemi di apprendimento automatico sono utilizzati oggi per prevedere il futuro di singoli individui, e assumere decisioni conseguenti: gli studenti vengono valutati sulla base del voto che si prevede riceverebbero se sostenessero l’esame, i candidati a un posto di lavoro vengono assunti o scartati sulla base di una previsione della loro futura produttività e la polizia si affida a statistiche automatizzate per prevedere chi commetterà un crimine o dove un crimine verrà commesso, e agire di conseguenza.
Tali sistemi non sono in realtà in grado di prevedere il futuro di singole persone, per la semplice ragione che ciò non è possibile.
I sistemi di intelligenza artificiale sono oggi in grado di svolgere alcuni specifici compiti, che erano stati, finora, prerogativa dei soli esseri umani: funzioni quali la traduzione di testi, il riconoscimento facciale, la ricerca per immagini o l’identificazione di contenuti musicali, non trattabili con l’intelligenza artificiale simbolica, sono affrontate con crescente successo dai sistemi di apprendimento automatico (machine learning).
Questi sistemi, di natura sostanzialmente statistica, consentono infatti di costruire modelli a partire da esempi, purché si abbiano a disposizione potenti infrastrutture di calcolo e enormi quantità di dati. Le grandi aziende tecnologiche che, intorno al 2010, in virtù di un modello di business fondato sulla sorveglianza, detenevano già l’accesso al mercato necessario per l’intercettazione di grandi flussi di dati e metadati individuali e le infrastrutture di calcolo per la raccolta e l’elaborazione di tali dati, hanno potuto perciò raggiungere, con l’applicazione di algoritmi in gran parte noti da decenni, traguardi sorprendenti1.
Nella generale euforia per i genuini progressi, le imprese del settore hanno colto l’opportunità per un’espansione illimitata di prodotti e servizi «intelligenti», ben oltre l’effettivo stadio di sviluppo della tecnologia. Con la formula di marketing «intelligenza artificiale», hanno diffuso e messo in commercio sistemi di apprendimento automatico per lo svolgimento di attività che tali sistemi non sono in grado di svolgere o che semplicemente non sono possibili. Tra i prodotti di questo genere – costitutivamente pericolosi e non funzionanti – ci sono
Per il ciclo di incontri “i Nexa Lunch Seminar” - 106° Nexa Lunch Seminar incontro il 24 maggio con Daniela Tafani, autrice di "L’«etica» come specchietto per le allodole Sistemi di intelligenza artificiale e violazioni dei diritti".
Mercoledì 24 maggio 2023, ore 13.00 (termine: ore 14.00)
L'INCONTRO SI TERRÀ IN PRESENZA E ONLINE SEDE FISICA:
Centro Nexa su Internet e Società, Politecnico di Torino, Via Boggio 65/a, Torino (1° piano) Suonare al citofono Portineria - Seguire le indicazioni segnalate dai cartelli lungo il percorso
STANZA VIRTUALE: https://didattica.polito.it/VClass/NexaEvent
Giudizi e decisioni che hanno effetti rilevanti sulle vite delle persone sono oggi affidati, in un numero crescente di ambiti, a sistemi di intelligenza artificiale che non funzionano. Tali malfunzionamenti non sono occasionali e non sono scongiurabili con interventi tecnici: essi rivelano, anzi, il funzionamento ordinario dei sistemi di apprendimento automatico, utilizzati impropriamente per compiti che non è loro possibile svolgere o che sono impossibili tout court.
Le decisioni basate su tali sistemi sono costitutivamente discriminatorie, e dunque, in alcuni ambiti, infallibilmente lesive di diritti giuridicamente tutelati, in quanto procedono trattando gli individui in base al loro raggruppamento in classi, costituite a partire dalle regolarità rilevate nei dati di partenza. Essendo radicata nella natura statistica di questi sistemi, la caratteristica di dimenticare i «margini» è strutturale: non è accidentale e non è dovuta a singoli bias tecnicamente modificabili. Ci si può trovare ai margini dei modelli algoritmici di normalità in virtù di caratteristiche totalmente irrilevanti, rispetto alle decisioni di cui si è oggetto.
Alla vasta documentazione degli esiti ingiusti, nocivi e assurdi di tali decisioni, le grandi aziende tecnologiche – paventando un divieto generalizzato – hanno risposto, in evidente conflitto di interessi, con un discorso sull'etica: è nata così, come operazione di cattura culturale, con l'obiettivo di rendere plausibile un regime di mera autoregolazione, l'«etica dell'intelligenza artificiale». Si tratta di una narrazione che le aziende commissionano e acquistano perché è loro utile come capitale reputazionale, che genera un vantaggio competitivo; è cioè un discorso, rispetto al quale le università hanno il ruolo, e l'autonomia, di un megafono; è «un'esca per catturare la fiducia» dei cittadini: un discorso pubblicitario che, in quanto declamato da altri, non appare neppure come tale.
La funzione di tale discorso è quella di tutelare, legittimandolo, un modello di business – fondato sulla sorveglianza e sulla possibilità di esternalizzare impunemente i costi del lavoro, degli effetti ambientali e dei danni sociali – il cui nucleo consiste nella vendita, alle agenzie pubblicitarie, della promessa di un microtargeting fondato sulla profilazione algoritmica.
Negli ultimi anni, l'opera di demistificazione della natura meramente discorsiva e del carattere strumentale dell'«etica dell'intelligenza artificiale», che trasforma l'etica nella questione della conformità procedurale a un «anemico set di strumenti» e standard tecnici, è stata così efficace da indurre molti a liquidare come inutile o dannosa – in quanto disarmata alternativa al diritto o vuota retorica aziendale – l'intera filosofia morale.
Al dissolversi della narrazione sull'etica dell'intelligenza artificiale, compare il convitato di pietra ch'essa aveva lo scopo di tenere alla larga: si sostiene infatti ora, da più parti, l'urgenza che ad intervenire, in modo drastico, sia il diritto. L'adozione di sistemi di apprendimento automatico a fini decisionali, in ambiti rilevanti per la vita delle persone, quali il settore giudiziario, educativo o dell'assistenza sociale, equivale infatti alla decisione, in via amministrativa, di istituire delle «zone pressoché prive di diritti umani».
A chi, in nome dell'inarrestabilità dell'innovazione tecnologica, deplori gli interventi giuridici, giova ricordare che il contrasto non è, in realtà, tra il rispetto dei diritti umani e un generico principio di innovazione, ma tra il rispetto dei diritti umani e il modello di business dei grandi monopoli del capitalismo intellettuale.
Tornano gli incontri di Etica Digitale!
Martedì 21 marzo - ore 21:30 - https://blue.meet.garr.it/b/dan-vzz-hud-dii
Conduce l'incontro: Daniela Tafani, ricercatrice presso l'Università di Pisa
Le tecnologie sono politiche? Langdon Winner, nel 1980, distingueva due modi in cui gli artefatti tecnologici possono essere politici: quando nascono come risposta a un problema di una specifica comunità; e quando invece sono "intrinsecamente politici", cioè quando la loro stessa esistenza presuppone o promuove una determinata visione politica della società.
A partire da questa distinzione, discuteremo la tesi formulata da Dan McQuillan nel suo recente libro Resisting AI. An Anti-fascist Approach to Artificial Intelligence. Secondo McQuillan, «L'intelligenza artificiale è una tecnologia politica, nella sua esistenza materiale e nei suoi effetti», che condensa la violenza strutturale, amplifica disuguaglianze e ingiustizie e incarna e consolida un regime autoritario.
L'incontro avverrà online sulla piattaforma BigBlueButton ospitata dal GARR senza necessità di registrarsi.